首页> 外文OA文献 >Exact worst-case convergence rates of the proximal gradient method for composite convex minimization
【2h】

Exact worst-case convergence rates of the proximal gradient method for composite convex minimization

机译:近似梯度法的精确最坏情形收敛速度   复合凸最小化

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

We study the worst-case convergence rates of the proximal gradient method forminimizing the sum of a smooth strongly convex function and a non-smooth convexfunction whose proximal operator is available. We establish the exact worst-case convergence rates of the proximal gradientmethod in this setting for any step size and for different standard performancemeasures: objective function accuracy, distance to optimality and residualgradient norm. The proof methodology relies on recent developments in performance estimationof first-order methods based on semidefinite programming. In the case of theproximal gradient method, this methodology allows obtaining exact andnon-asymptotic worst-case guarantees that are conceptually very simple,although apparently new. On the way, we discuss how strong convexity can be replaced by weakerassumptions, while preserving the corresponding convergence rates. We alsoestablish that the same fixed step size policy is optimal for all threeperformance measures. Finally, we extend recent results on the worst-casebehavior of gradient descent with exact line search to the proximal case.
机译:我们研究了近端梯度方法的最坏情况下的收敛速度,以最小化可利用其近端算子的光滑强凸函数和非光滑凸函数之和。我们针对任何步长和不同标准性能度量(目标函数精度,到最优距离和残差梯度范数),在此设置中建立了近端梯度方法的最坏情况的确切最坏收敛速度。证明方法依赖于基于半定规划的一阶方法性能估计的最新进展。在近距离梯度法的情况下,该方法允许获得精确的和非渐近的最坏情况的保证,这些保证在概念上非常简单,尽管显然是新的。在此过程中,我们讨论了如何用弱假设代替强凸性,同时保留相应的收敛速度。我们还建立了相同的固定步长策略对于所有三个性能指标都是最佳的。最后,我们将最近的关于梯度下降的最坏情况的结果扩展到了最近的情况,并进行了精确的线搜索。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号